Многим пользователям платформы виртуализации VMware vSphere известна компания StarWind, которая производит продукт StarWind Enterprise для создания отказоустойчивых хранищ под серверы VMware ESX (описание работы - здесь, изданий - здесь). Основная фишка данного продукта - использование двухузлового кластера, работающего в режиме Active-Passive или Active-Active, который в случае падения одного из узлов продолжает свою работу, а виртуальные машины не теряют данных. Эта вещь актуальна для организаций, которую используют существующую инфраструктуру Ethernet для создания сети хранения на базе технологии iSCSI. То есть для тех, кто не любит тратить деньги направо и налево, покупая Fibre Channel системы хранения.
По заявкам наших читателей мы публикуем объяснение работы кластера StarWind Enterprise в случае обрыва канала синхронизации между узлами (так называемый сценарий Split Brain). В актуальной версии StarWind Enterprise 5.4 при обрыве канала синхронизации между узлами обе ноды оставались работающими, думая что каждая из них - выживший член кластера.
В этом случае, например, при алгоритме балансировки Round Robin (или при переключении пути после разрыва канала синхронизации) могла выйти ситуация, когда данные писались то на одну ноду, то на другую (а данные между ними не синхронизировались). Соответственно, при попытке что-нибудь прочитать - мы получали Blue Screen в гостевой ОС. Поэтому настоятельно рекомендовалось использовать дублирование канала синхронизации (NIC Teaming).
В версии StarWind Enteprise 5.5 которая у меня уже есть на руках (и вы можете ее у меня попросить), а у вас будет совсем скоро, ситуация кардинально лучше. Теперь механизм работы кластера StarWind HA следующий:
Когда ноды работают в режиме Active-Active, между ними все равно есть распределение ролей - Primary и Secondary.
Если обрывается канал синхронизации между узлами (нет пинга), то:
По каналу Heartbeat (сеть iSCSI трафика) первичный узел посылает запрос вторичному узлу на то, жив ли он (обычный ping). Если он жив, то первичный узел посылает вторичному узлу команду на отключение всех клиентов (ESX) от этого узла. Соответственно все команды процессятся через первичный узел и ситуации Split Brain не возникает. При налаживании канала синхронизации - оба узла синхронизируются (второй получает данные от первого) и работа в режиме Active-Active продолжается.
Если Heartbeat по сети iSCSI-трафика не прошел. Это значит умер вторичный узел, а не канал синхронизации. Соответственно, ESX продолжает запись на первичную ноду до того, как вторичный узел не придет в себя. После этого опять произойдет синхронизация и кластер StarWind HA продолжит свою работу.
Вторичная нода тоже пингует первичную при разрыве канала синхронизации на случай если упал сам первичный узел, а не канал синхронизации. Если ответа нет - она продолжает работу по записи данных на диск. После восстановления канала синхронизации с этой нодой синхронизируется первичный узел и конфигурация Active-Active восстанавливается.
Скачать продукт StarWind Enteprise можно по этой ссылке. Купить StarWind можно по этой ссылке.
Таги: StarWind, Enterprise, HA, Split Brain, Storage, iSCSI
Часто бывает необходимо заглянуть в логи сервера VMware ESX или ESXi и посмотреть, что там происходит. При обнаружении и решении проблем работы серверов виртуализации с хранилищами логи - это главный источник ваших знаний о том, что с ними случилось.
Если сервер ESX / ESXi работает с хранилищем iSCS или Fibre Channel в режиме multipathing с одним активным путем к хранилищу, то описанная ниже последовательность шагов, которые выполняет ESX, может вам помочь при наступлении события переключения на резервный путь (failover)....
Таги: VMware, ESX, Storage, Multipathing, HA, ESXi, vSphere, iSCSI, FC
Компания StarWind, являющаяся спонсором VM Guru, предлагает своим пользователям один из лучших в индустрии продукт для создания отказоустойчивых хранилищ для виртуальных машин VMware vSphere и Microsoft Hyper-V на базе технологии iSCSI. Преимущество StarWind Enterprse в том, что без существенных вложений в инфраструктуру Ethernet и сам продукт (он недорог) вы можете получить надежную, защищенную от отказов инфраструктуру хранения для виртуализации.
Почитать о принципе работы продукта StarWind Enterprise можно вот в этой статье.
Данное решение можно использовать в сегменте среднего и малого бизнеса, где дорого и сложно (административно) получить бюджеты на отказоустойчивые программно-аппаратные решения Enterprise-уровня. Кроме того, важная тема - создание виртуальной инфраструктуры филиалов, где стоит 3-5 серверов VMware ESX и 20-30 виртуальных машин.
Сейчас продукт StarWind Enterprise предлагается в 3-х изданиях:
StarWind Enterprise CDP (лимит 4 ТБ): Это лицензия на 1 сервер, назначенный в качестве первичного контроллера хранилищ (например, томов VMFS), и включает в себя неограниченное количество одновременных клиентских iSCSI-подключений, поддержку технологии CDP/Snapshot. Это базовая лицензия - здесь нет синхронной репликации данных на резервный узел и самого резервного узла тоже нет.
StarWind Enterprise Mirroring & Replication: Эта лицензия требуется для сервера, назначенного в качестве первичного контроллера хранилища, и включает неограниченное количество клиентских соединений и нелимитированную емкость хранения. Это издание StarWind позволяет реплицировать данные только в одну сторону (на вторичный узел) с первичного узла. То есть, с этой лицензией нельзя использовать два активных сервера хранения, а только активно-пассивную конфигурацию.
StarWind Enterprise HA (лицензия на 2,4,8,16 и неограниченное число ТБ хранения): Лицензия StarWind Enterprise HA включает неограниченное количество клиентских iSCSI-соединений с лимитом емкости или без него для окружений, в которых необходима высокая доступность класса Active-Active (зеркалирование и удаленная репликация) с различным объемом хранения и числом серверов-контроллеров хранилищ. В рамках лицензии можно использовать одну или две пары серверов в конфигурации Active-Active.
Внимание: для всех изданий StarWind Enterprise в стоимость продукта уже включен 1 год технической поддержки и подписки на обновления. То есть, отдельно ее нужно приобретать только для последующих лет эксплуатации решения.
Приятный момент при покупке StarWind - вы покупаете какое-нибудь издание (например, базовое на один сервер), а потом решаете, что вам нужна высокая доступность. Вы делаете апгрейд - и платите только разницу в цене между изданиями, без диковинных наценок, которые появляются, например, у VMware.
Вы уже выучили, где продаются все продукты, о которых мы пишем? Правильно - в VMC.
На сайте myvirtualcloud.net появилась отличная статья, в которой описываются подходы к отказоустойчивости и восстановлению после сбоев (Disaster Recovery) в инфраструктуре виртуальных ПК VMware View 4.5.
Рассматриваются конфигурации Active-Active и Active-Passive для сайтов, где развернуто решение VMware View. Статья обязательна к ознакомлению тем, кто еще не задумывался над этим важным вопросом.
Интересную возможность управления кластером высокой доступности VMware HA демонстрирует Duncan Epping. Если в сервисной консоли VMware ESX ввести команду:
/opt/vmware/aam/bin/Cli
а потом набрать команду:
ln
то мы увидим вот такую картинку:
В колонке Type мы видим значение Primary - это тип узла кластера VMware HA (всего может быть 5 Primary узлов, соответственно виртуальная инфраструктура гарантированно выдерживает до 4-х отказов включительно). Далее можно превратить Primary-ноду в Secondary:
Технология VMware Fault Tolerance позволяет защитить виртуальные машины с помощью кластеров непрерывной доступности, позволяющих в случае отказа хоста с основной виртуальной машиной мгновенно переключиться на ее "теневую" работющую копию на другом сервере ESX. Однако эта технология имеет существенные ограничения, приведенные ниже. Таги: VMware, Fault Tolerance, FT, vSphere, ESX, DRS, DPM, HA, Enterprise
Как уже много писали об этом ранее, одной из проблем механизма отказоустойчивости VMware HA является его потенциальное не срабатывание в окружениях, где одновременно отказывает более 4-х хостов в кластере (например, на уровне блейд-корзины), когда не доступны все 5 primary-узлов. В этом случае есть риск, что виртуальные машины не перезапустятся на оставшихся хост-северах.
В VMware vSphere 4.1 появилась возможность явным образом указать, какие узлы в кластере VMware HA будут являться Primary:
Можно использовать в качестве разделителя пробел или запятую.
Эти настройки необходимо указывать в расширенных свойствах кластера VMware HA (Advanced Settings). Обращаю внимание, что хоть эти настройки и не являются experimental, они являются неподдерживаемыми со стороны VMware и не рекомендуются к использованию в промышленной среде. Кстати, скоро кластер VMware HA будет переживать сколько угодно отказов хостов ESX / ESXi.
Как многие знают, недавно компания VMware выпустила обновление продукта VMware vSphere 4.0 Update 2. Среди прочих нововведений есть также улучшения механизма VMware HA для отказоустойчивости серверов VMware ESX. Одно из улучшений - решение проблемы Split Brain в кластере HA, которое заключалось в следующем:
Если у вас есть несколько хостов ESX, подключенных к IP-системе хранения iSCSI / NFS, а для виртуальных машин выставлено действие Leave Powered On для Isolation Responce (по умолчанию), то при отключении хоста от всех сетей (IP Storage и VM Network) процессы VMX, реализующие исполнение виртуальных машин оставались в памяти.
При этом, по истечении срока действия лочек VMware HA, остальные хост-серверы ESX запускали эти виртуальные машины. Когда соединение выпавшего хоста с сетью и хранилищем восстанавливалось - процессы продолжали жить, что приводило к так-называемому "пинг-понгу" виртуальных машин между хостами ESX и всяким глюкам.
Теперь же, начиная с VMware vSphere 4.0 Update 2 эта ситуация решается - хост ESX выключает виртуальную машину и генерирует соответствующее событие в vCenter.
Большинству пользователей виртуальной инфраструктуры VMware vSphere известны такие параметры как Limit, Reservation и Shares для пулов ресурсов (Resource Pool) в пределах кластеров VMware DRS и отельных хостов ESX. Именно этими тремя параметрами определяется потребление виртуальными машинами оперативной памяти и процессорных ресурсов хоста VMware ESX. Таги: VMware, vSphere, Resources, ESX, HA, DRS
Виртуализация, при всех своих несомненных плюсах, имеет один очевидный недостаток - единая точка отказа в виде системы хранения, где размещены все виртуальные машины. Ситуацию во многом спасает наличие средств по резервному копированию или репликации данных (например, Veeam Backup), однако, эти средства не могут обеспечить полностью непрерывную работу виртуальной инфраструктуры. StarWind Enteprise HA позволяет решить эту проблему.
Механизм VMware High Availability (HA) в VMware vSphere позволяет перезапустить виртуальные машины отказавшего хост-сервера VMware ESX на другом сервере кластера с общего хранилища. Однако, что будет, если один из узлов кластера не сможет запустить виртуальную машину (например, она продолжает работать на изолированном хосте)?
Ответ прост, VMware HA пробует запустить виртуальную машину 5 раз в следующем порядке:
В Advanced Settings для VMware HA может быть добавлен следующий параметр, определяющий число попыток рестарта виртуальных машин (недокументированная возможность):
das.maxvmrestartcount
Если поставить -1, VMware HA будет постоянно пытаться запустить виртуальные машины. Для применения настройки нужно выключить HA в кластере и включить его снова.
Функциям высокой доступности VMware High Availability (HA) уже без малого 4 года. Возможности VMware HA позволяют повысить отказоустойчивость виртуальной инфраструктуры и сделать более непрерывным бизнес компании. Суть возможностей VMware HA заключается в перезапуске виртуальной машины отказавшего сервера VMware ESX с общего хранилища (собственно, сам VMware HA), а также рестарте зависшей виртуальной машины на сервере при потере сигнала от VMware Tools (VM Monitoring).
Между тем, функции VMware HA имеют следующие ограничения:
Хостов в кластере VMware HA - максимально 32 хоста
Виртуальных машин на хост с числом хостов VMware ESX 8 и менее - масимально 100
Виртуальных машин на хост с числом хостов VMware ESX 8 и менее для vSphere 4.0 Update 1 - масимально 160
Виртуальных машин на хост с числом хостов VMware ESX 9 и более - масимально 40
Как мы видим, для крупных инсталляций VMware vSphere в очень больших компаниях даже этих максимумов может не хватить. Поэтому одна из задач компании VMware - увеличивать эти параметры, что и было уже ранее анонсировано в различных дорожных картах.
Второй интересный момент - функции мониторинга доступности гостевой ОС виртуальной машины - VM Monitoring. Если вы откроете vSphere Client и попробуете создать кластер VMware HA, вы увидите, что по умолчанию функции мониторинга доступности - отключены. Как известно, возможности VM Monitoring довольно долго были в статусе experimental, но сегодня они уже доступны для промышленного использования. Однако VMware пока не спешит их ставить по умолчанию - неудивительно, ведь пользователи не раз сталкивались с ситуацией, когда VM Monitoring на ранних этапах своего развития давал сбой и попусту перезагружал виртуальные машины. Здесь задача VMware состоит в техническом усовершенствовании возможностей VM Monitoring, а также постепенное завоевание доверия пользователей.
Следующий аспект - число отказов, которые может пережить кластер VMware HA. Сейчас в кластере HA может быть только 5 primary хостов ESX, чего явно недостаточно для создания катастрофоустойчивого решения на уровне блейдового шасси (его можно назвать possible failure domain). Кроме того, на данный момент нет прозрачного механизма назначения хостов как primary или secondary (например, закрепить primary ноду), что тоже вызывает иногда проблемы. В этом плане компания VMware уже прилагает усилия, чтобы сделать такие кластеры VMware HA, которые будут переживать неограниченное число отказов хостов VMware ESX.
Последний момент - территориальное ограничение кластеров VMware HA. Пользователи VMware vSphere хотят больше функциональности от кластеров, которые должны вести "более подобно" VMware SRM и в полной мере позволять использовать disaster recovery площадку (второй датацентр) для создания "растянутого" кластера. То есть что-то вроде этого:
И это будет! Более подробно о таких кластерах VMware HA и SRM можно прочитать вот в этой статье.
Hany Michael, автор портала Hypervizor.com, опубликовал интересную диаграмму работы механизма обеспечения отказоустойчивости VMware High Availability. На картинке отмечены такие элементы как HA Advanced Settings, HA VM Monitoring, параметры Heartbeats и пинга шлюза, диагностика кластера и конфигурационная информация. Неплохой плакат для системных администраторов, отвечающих за работу кластера VMware HA:
Андрей Вахитов (vmind.ru) в своем блоге разместил просочившуюся информацию о новой функциональности готовящегося к выпуску релиза платформы виртуализации VMware vSphere 4.1, включая ESX 4.1 и vCenter 4.1.
Приблизительный список основных новых возможностей VMware vSphere 4.1:
Поддержка развертывания тонкого гипервизора VMware ESXi по PXE.
Контроль обмена трафиком с системой хранения Storage I/O Control в стиле QoS.
Network I/O Traffic Management - более гибкое регулирование полосы пропускания сетевого взаимодействия виртуальных машин (в том числе сети VMotion, Fault Tolerance).
VMware HA Healthcheck Status - автоматическая проверка работоспособности VMware HA, при этом в случае отклонения настроек кластера от требуемых выдается Alarm в VMware vCenter.
Fault Tolerance (FT) Enhancements - теперь FT полностью интегрирован с VMware DRS, работает в кластерах EVC, а первичные и вторичные виртуальные машины корректно балансируются DRS. Кроме того, VMware FT может теперь работать без VMware HA.
vCenter Converter Hyper-V Import - можно импортировать виртуальную машину на ESX с сервера Hyper-V
DRS Virtual Machine Host Affinity Rules - возможность запрещать некоторые хосты к размещению на них ВМ. Пригодится для соблюдения лицензионной политики.
Memory Compression - новый уровень абстракции оперативной памяти ВМ. Быстрее чем засвопированная на диск память, но медленнее, чем физическая.
vMotion Enhancements - теперь VMotion работает быстрее (до 8 раз), и увеличено число одновременных миграций ВМ на хосте (с 4 до 8).
8GB Fibre Channel Support
ESXi Active Directory Integration - теперь ESXi можно загнать в AD.
Configuring USB Device Passthrough from an ESX/ESXi Host to a Virtual Machine - поддержка USB-устройств на хосте ESX / ESXi, пробрасываемых к виртуальной машине.
User-configurable Number of Virtual CPUs per Virtual Socket - по-сути, многоядерные (не путать с многопроцессорными) виртуальные машины. Несколько виртуальных ядер в одном виртуальном vCPU.
Как может быть вы знаете, компания Citrix поменяла свою стратегию в продвижении продуктов для виртуализации. Раньше флагманским продуктом был Citrix XenApp, обеспечивающий виртуализацию и доставку приложений конечным пользователям на их ПК. Теперь же, компания Citrix выставила вперед решение Citrix XenDesktop 4, ориентированное на доставку окружений пользователям на базе виртуальных машин целиком, при этом решение XenApp уже входит в издания Citrix XenDesktop и работает уже на уровне доставки приложений в виртуальных ПК.
В документе High Availability for Desktop Virtualization от компании Citrix рассматриваются различные аспекты обеспечения отказоустойчивости и непрерывной работы пользовательских окружений на трех уровнях:
платформа виртуализации (Citrix XenServer)
гостевые ОС (потоковая доставка виртуальных ПК и т.п.)
приложения и пользовательские сессии (Citrix XenApp и NetScaler)
В рефернсной архитектуре Citrix XenDesktop рассматриваются также следующие продукты и технологии: NetScaler, XenDesktop Roaming Users and XenServer Pools and XenMotion, которые могут являться частью решения на базе ПО Citrix XenDesktop.
Таги: Citrix, XenDesktop, XenApp, VDI, HA, XenServer, NetScaler, XenMotion
Компания VMware выпустила интересный документ о продукте для обеспечения катастрофоустойчивости виртуальной инфраструктуры VMware Site Recovery Manager (SRM) 4. В нем описано, каким образом настроить компоненты VMware vSphere 4 и SRM 4 так, чтобы минимизировать время восстановления серверов ESX и виртуальных машин в случае аварии или катастрофы.
Бывает так, что необходимо регламентировать процедуру тестирования отказоустойчивости сетевых интерфейсов VMware ESX (NIC Teaming). В этом случае проверку Network Failover Maish Saidel-Keesing предлагает проводить так:
1. Отключаем один из физических NICs сервера VMware ESX для которого настроен Failover Order, переводя его в режим "10 Half-Duplex ":
[root@esx1 ~]#esxcfg-nics -s 10 -d half vmnic2
2. Видим, что интерфейс отключился:
3. Перед этим запускаем пинги из виртуальной машины, где наблюдаем их потерю из-за "отказа" сетевого адаптера ESX. Потом соединение должно восстановиться по резервному NIC сервера ESX:
4. Включаем интерфейс, переводя его в режим Auto Negotiate:
Компания Starwind, производитель ПО для хранилищ iSCSI для виртуальных инфраструктур, планирует выпуск пятой версии продукта StarWind Enterprise iSCSI SAN. Напомним, что продукт Starwind предназначен для создания iSCSI-хранилища для серверов VMware ESX, Microsoft Hyper-V и Citrix XenServer на базе стандартного Windows-сервера по протоколу iSCSI, к которому, в свою очередь, уже может быть подключена любая система хранения.
Пятая версия позволит получить важнейшую возможность для хранилищ iSCSI - High Availability (HA) или по-русски высокую доступность. Данные в StarWind 5.0 могут синхронно записываться на 2 хранилища iSCSI (Data Mirroring), а в случае отказа основного хранилища, резервное берет на себя нагрузку по поддержанию работы виртуальных машин.
Таги: StarWind, iSCSI, SAN, HA, VMware, Hyper-V, ESX, Veeam
Не так давно вышедшая вместе с Windows Server 2008 R2 бесплатная платформа виртуализации Microsoft Hyper-V 2.0 позволяет строить отказоустойчивые кластеры из хост-серверов. Весь процесс настройки кластера Hyper-V 2.0 можно посмотреть на видео ниже:
Великий Duncanподнял очередную болезненную тему для VMware vSphere. У них (VMware) есть заказчик, у которого 5 хостов VMware ESX в кластере VMware DRS. Вечером, когда нагрузка на хосты ESX спадает, 4 из них переходят в standby режим (делает это механизм Distributed Power Management), остается один хост на котором сервер vCenter, работающий в виртуальной машине.
Если этот единственный хост VMware ESX погибает - вся инфраструктура остается выключенной, поскольку некому вывести остальные хосты из standby и перезапустить vCenter. Все это потому, что Admission Control в настройках кластера VMware HA выключен и отказоустойчивость кластера не гарантирована. То есть это не баг - а фича. Но...
А знаете ли вы, что в VMware vSphere есть не только режим обслуживания (Maintenance Mode) для DRS, но и для High Availability (HA). Режим vSphere HA Maintenance Mode нужен для проведения регламентных работ в сети или устранения неполадок, чтобы механизм VMware HA не срабатывал почем зря и не вызывал действие, указанное в Isolation Responce (например, выключение виртуальных машин).
Для включения режима обслуживания VMware HA нужно просто снять переключатель "Enable Host Monitoring" в настройках кластера VMware HA:
Как многие помнят, в VMware Virtual Infrastructure 3.5 была такая возможность как Virtual Machine Failure Monitoring, о которой мы писали. В VMware vSphere эта возможность доступна из графического интерфейса, называется VM Monitoring и является одной из частей кластера высокой доступности VMware HA. Таги: VMware, vSphere, VMFM, HA, vCenter
Компания VMware пересмотрела дефолтное поведение кластеров VMware High Availability при отказе хостов VMware ESX. Теперь в случае изоляции хоста ESX от сети, по-умолчанию выполняется действие "Shut down":
Как многим из вас уже известно, новое поколение платформы VMware Virtual Infrastructure, носящее имя VMware vSphere, будет анонсировано 21 апреля. Новые функции VMware Fault Tolerance (FT), расширяющие возможности VMware HA, позволят добиться не просто высокой доступности виртуальных машин, но и их постоянной доступности в случае отказов хостов ESX / ESXi... Таги: VMware, vSphere, VMFT, HA
Сегодня компания VMware объявила о доступности решения vCenter Server Heartbeat 5.5 для обеспечения непрерывной работы серверов VMware vCenter 2.5 (VirtualCenter).
Итак, ключевые особенности продукта Heartbeat... Таги: VMware, vCenter, Heartbeat, VirtualCenter, HA
Не так давно на VM Guru была новость об анонсе продукта VMware vCenter Heartbeat. Сегодня мы расскажем о нем поподробнее, поскольку NDA уже перестало действовать (блоггеры открыли большинство «секретов»).
Итак, основная цель продукта vCenter Heartbeat – постоянная доступность сервера vCenter (VirtualCenter), которой раньше пытались достигнуть сторонними средствами, например, Microsoft Cluster Services. Такая ситуация не устраивала клиентов VMware, которые, во-первых, хотели законченное решение по постоянной доступности от одного вендора, а, во-вторых, защиту на всех уровнях vCenter (WAN failure, компоненты VirtualCenter)... Таги: VMware, vCenter, Heartbeat, VirtualCenter, HA
На блоге для партнеров компании VMware появилось приглашение на вебинар, посвященный продукту VMware vCenter Server Heartbeat... Таги: VMware, vCenter, Heartbeat, VirtualCenter, HA, MSCS
Продукт VMware Site Recovery Manager является хорошим средством для построения отказоустойчивой виртуальной инфраструктуры серверов ESX на уровне центра обработки данных.
Основной вариант использования VMware SRM – создание резервного сайта, содержащего в себе как аппаратную, так и программную инфраструктуру, готовую принять на себя выполнение задач основного производственного окружения в случае катастрофы (например, пожар в серверной комнате). Достигается это путем репликации (синхронной или асинхронной) данных общего хранилища виртуальных машин на другой массив, географически удаленный от основной инфраструктуры. На запасном сайте также развернуто ПО VMware Virtual Infrastructure, осуществляющее запуск виртуальных машин при аварии в основном ЦОД... Таги: VMware, SRM, HA
Многие пользователи VMware Infrastructure 3.5 иногда сталкиваются с проблемой добавления хоста ESX в кластер HA. Ошибки бывают разные, например, «VMware HA failed with error».
Что прежде всего нужно сделать:
Проверить разрешение имен (Shortname и FQDN) между хостами ESX, попинговав их по короткому и полному доменному имени.
Проверить разрешение имен (Shortname и FQDN) между сервером ESX и vCenter (VirtualCenter).
Просмотреть файлы /etc/sysconfig/network и /etc/hosts на предмет соответствия имен хостов выводу команд hostname и hostname -s. Имена хостов пишутся только в нижнем регистре!
Просмотреть файл /etc/resolv.conf и убедиться, что DNS-серверы и домен указаны верно. Имена хостов пишутся только в нижнем регистре!
Если ничего не помогает, нужно переустановить агента VMware HA на хосте. Если «Reconfigure for HA» из VI Client не помогает, вот что нужно сделать для VirtualCenter 2.5... Таги: VMware, ESX, HA, vCenter, VirtualCenter